Llama + Dify,本地搭建一套 AI 工作流
主要参考:
windows 11 下遇到的问题
Dify 502 错误
报错:
报错原因:
nginx 服务启动太早,需要起来 docker 后,再把 nginx 手动重启一次 docker compose restart nginx
解决方法:
- https://docs.dify.ai/v/zh-hans/learn-more/faq/install-faq#id-20.502-bad-gateway
- https://www.restack.io/p/dify-answer-internal-server-error-cat-ai
- https://www.bilibili.com/read/cv34348599/
postgres 的 volume 权限问题
报错:/var/lib/postgresql/data/pgdata: Operation not permitted
报错原因:
PostgreSQL 尝试使用的目录存在权限问题,需要自己创建一个新的数据卷然后重新挂载
解决方法:
Ollama 服务无法从 docker 容器中访问
报错:
使用 docker 部署 Dify 和 Ollama,可能会遇到以下错误:
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
报错原因:
Ollama 服务无法从 docker 容器中访问。localhost 通常指的是容器本身,而不是宿主机或其他容器。要解决此问题,您需要将 Ollama 服务暴露给网络。
解决方法:
在Windows上,Ollama 继承您的用户和系统环境变量。首先退出 Ollama,然后从控制面板编辑系统环境变量,为您的用户帐户编辑或创建新变量
- OLLAMA_HOST: 0.0.0.0:11434
- OLLAMA_MODELS: C:\Users\admin\.ollama\models
点击保存,然后从新的终端窗口运行ollama
如何在我的网络上暴露 Ollama?
Ollama默认绑定127.0.0.1端口11434。使用 OLLAMA_HOST 环境变量更改绑定地址。